在最近针对生成任务的量子电路模型的建议中,关于其性能的讨论仅限于它们重现已知目标分布的能力。例如,诸如量子电路诞生的机器(QCBM)之类的表达模型家族几乎已经完全评估了其以高精度学习给定目标分布的能力。尽管此方面可能是某些任务的理想选择,但它将生成模型的评估范围限制在记忆数据而不是概括的能力上。结果,对模型的概括性能以及此类能力和资源需求之间的关系几乎没有理解,例如电路深度和培训数据的量。在这项工作中,我们利用最近提出的概括评估框架开始解决这一知识差距。我们首先研究了QCBM的基数受限分布的学习过程,并在增加电路深度的同时看到概括性能的提高。在此处介绍的12个问题示例中,我们观察到,只有30%的有效模式与训练集相比,QCBM表现出最佳的概括性能,以产生看不见和有效的模式。最后,我们评估了QCBM不仅可以概括有效特征的能力,而且还评估了根据充分偏见分布分布的高质量斑点。我们看到,QCBM能够有效地学习偏见并产生比培训集中的质量更高的看不见的样本。据我们所知,这是文献中的第一部作品,该作品将QCBM的概括性能作为量子生成模型的积分评估度量标准,并证明了QCBM将其推广到高质量的,所需的新型样品的能力。
translated by 谷歌翻译
隔离量子系统的演变是线性的,因此量子算法是可逆的,包括那些利用量子电路作为生成机器学习模型的量子。但是,一些最成功的经典生成模型,例如基于神经网络的模型,涉及高度非线性,因此是非可逆的动力学。在本文中,我们通过引入一个模型来探讨这些动力学在量子生成建模中的效果,该模型通过神经网络结构将非线性激活添加到标准生产的机器框架上 - 量子神经元出生机器(QNBM)。为了实现这一目标,我们利用了先前引入的量子神经元子例程,这是一个重复启用的电路,具有中路测量和经典控制。引入QNBM后,我们通过训练具有4个输出神经元以及各种输入和隐藏层大小的3层QNBM来研究其性能如何取决于网络大小。然后,我们将非线性QNBM与线性量子电路诞生的机器(QCBM)进行比较。我们将相似的时间和内存资源分配给每个模型,因此唯一的主要区别是QNBM所需的QUBIT开销。通过基于梯度的训练,我们表明,尽管这两种模型都可以轻松地学习一个琐碎的均匀概率分布,但在更具挑战性的分布类别上,QNBM的错误率几乎比具有相似数量可调参数的QCBM要小3倍。因此,我们提供的证据表明,非线性是量子生成模型中的有用资源,我们将QNBM作为具有良好生成性能和量子优势潜力的新模型。
translated by 谷歌翻译
由于它们的多功能性,机器学习算法表现出识别许多不同数据集中的模式。然而,随着数据集的大小增加,培训和使用这些统计模型的计算时间很快地增长。Quantum Computing提供了一种新的范例,可以克服这些计算困难的能力。这里,我们将量子类似物提出到K-means聚类,在模拟超导Qubits上实现它,并将其与先前显影的量子支持向量机进行比较。我们发现算法可与群集和分类问题的古典K均值算法相当的算法,发现它具有渐近复杂度$ O(n ^ {3/2} k ^ {1/2} \ log {p})$如果$ n $是数据点数,$ k $是群集的数量,$ p $是数据点的尺寸,在经典模拟中提供了重大的加速。
translated by 谷歌翻译
Incorporating equivariance to symmetry groups as a constraint during neural network training can improve performance and generalization for tasks exhibiting those symmetries, but such symmetries are often not perfectly nor explicitly present. This motivates algorithmically optimizing the architectural constraints imposed by equivariance. We propose the equivariance relaxation morphism, which preserves functionality while reparameterizing a group equivariant layer to operate with equivariance constraints on a subgroup, as well as the [G]-mixed equivariant layer, which mixes layers constrained to different groups to enable within-layer equivariance optimization. We further present evolutionary and differentiable neural architecture search (NAS) algorithms that utilize these mechanisms respectively for equivariance-aware architectural optimization. Experiments across a variety of datasets show the benefit of dynamically constrained equivariance to find effective architectures with approximate equivariance.
translated by 谷歌翻译